Световни новини без цензура!
Дълбока фалшива демокрация: Зад измамата с изкуствен интелект, оформяща изборите в Индия през 2024 г.
Снимка: aljazeera.com
Aljazeera News | 2024-02-20 | 09:22:27

Дълбока фалшива демокрация: Зад измамата с изкуствен интелект, оформяща изборите в Индия през 2024 г.

Ню Делхи, Индия — Докато гласоподавателите се редяха на опашка рано сутринта на 30 ноември предходната година, с цел да гласоподават на законодателни избори, с цел да изберат идващото държавно управление в южния индийски щат Телангана, седемсекунден клип стартира да става вирусен в обществените медии.

Публикувано на X от партията на Конгреса, която е в национална съпротива и беше в щата по това време, то демонстрира К. Т. Рама Рао, водач на Бхарат Ращра Самити, който ръководи щата, призовавайки хората да гласоподават в интерес на Конгреса.

Конгресът го показа необятно в редица групи в WhatsApp, „ оперирани импровизирано от Конгресната партия “ съгласно почитан партиен водач, поискал анонимност, в последна сметка се озова в формалния X акаунт на партията, прегледан повече от 500 000 пъти.

Беше подправено.

„ Разбира се, генериран е от изкуствен интелект, макар че наподобява изцяло действителен “, сподели водачът на партията на Конгреса пред Ал Джазира. „ Но естествен гласоподавател не би могъл да различи; гласуването беше почнало [когато беше оповестено видеото] и нямаше време [опозиционната кампания] да овладее вредите. “

Проницателно премереният deepfake беше маркер за потока от генерирани от AI или манипулирани медии, които помрачиха поредност от избори в щатите на Индия през последните месеци и в този момент заплашват да оформят фундаментално идните общи избори в страната.

Между март и май близо един милиард гласоподаватели в Индия ще изберат идващото си национално държавно управление на най-големите избори в света и в историята. Заплахите, подбудени от лъжливи медии, генерирани от изкуствен интелект, привлякоха вниманието на света, когато през януари в платформите на обществените медии се появиха подправени полово изразени изображения на художничката Тейлър Суифт. През ноември Ashwini Vaishnaw, министър на осведомителните технологии на Индия, назова deepfakes „ опасност за демокрацията “ и министър председателят Нарендра Моди изрази тези опасения.

Но с нарасналата наличност на комфортни принадлежности за изкуствен интелект, екипи в политическите партии в Индия, в това число партията Bharatiya Janata на Моди и Конгреса, внедряват дълбоки подправени известия, с цел да повлияят на гласоподавателите, споделиха пред Al Jazeera мениджъри на близо 40 скорошни акции. Докато няколко AI инструмента, употребявани за генериране на deepfakes, са безвъзмездни, други са налични при абонамент единствено за 10 цента на видеоклип.

„ Създаване на усещане “

BJP, може би най-технологично комплицираната партия в Индия, е в челните редици на потреблението на илюзии за акции. Още през 2012 година партията употребява 3D холограмни проекции на Моди, с цел да може той по едно и също време да „ кампанира “ на десетки места по едно и също време. Стратегията беше разгърната необятно по време на общите избори през 2014 година, които доведоха Моди на власт.

Там не беше намесена машинация, само че през февруари 2020 година Манодж Тивари, член на Народното събрание от BJP, стана измежду първите в света, които използваха deepfakes за акция. В три видеоклипа Тивари се обърна към гласоподавателите в Делхи преди изборите за законодателно заседание на столицата на хинди, хариани и британски – достигайки до три разнообразни аудитории в мултикултурния град. Само видеото на хинди беше достоверно: другите две бяха дълбоки подправени, където AI беше употребен за генериране на гласа и думите му и за смяна на израженията и придвижването на устните му, с цел да стане съвсем невероятно да се открие, единствено при гледане, че не са същински.

През последните месеци Dravida Munnetra Kazhagam (DMK), който ръководи южния щат Тамил Наду, употребява AI, с цел да възкреси своя емблематичен водач M Karunanidhi от мъртвите, употребявайки реалистични видеоклипове на някогашния кино сценарист и деец политик в събития на акцията.

Сега консултанти и мениджъри на акции споделят, че изборите през 2024 година могат да подтикват още повече потреблението на дълбоки имитации.

„ Политиката е за основаване на възприятие; с AI принадлежности [на гласова и видеомодулация] и едно тракване, можете да обърнете усещането с главата надолу за минута “, сподели Арун Реди, народен координатор за обществените медии в Конгреса, който управлява изборите на партията в Телангана, които се занимават с технологии. Той добави, че екипът е бил цялостен с хрумвания за включване на AI в акциите, само че че не са имали задоволително „ подготвени хора “, с цел да ги изпълнят всички.

Реди укрепва тима си – както и другите партии.

„ ИИ ще има голям резултат при основаването на описа “, сподели Реди пред Al Jazeera. „ Манипулираното от AI политическо наличие ще се усили неведнъж, доста повече от това, което е било в миналото. “

„ Кампаниите стават все по-странни “

Живеещ в пустинния град Пушкар в западна Индия, 30-годишният Дивиендра Сингх Джадун управлява започващ AI, The Indian Deepfaker. Стартирала през октомври 2020 година, компанията му клонира гласа на претендента за основен министър в Конгреса на щата Раджастан Ашок Гелот, с цел да може неговият екип да изпраща персонализирани известия в WhatsApp, обръщайки се към всеки гласоподавател с името му по време на изборите за парламент през ноември. Индийският Deepfaker сега работи с екипа на основния министър на Сиким Прем Сингх Таманг за холограми по време на идните акции. Сиким е един от най-малките щати на Индия на североизток, кацнал в Хималаите сред Индия, Бутан и Китай.

Това е чистата, публична работа, сподели той. Но през последните месеци той беше залят от това, което той разказва като „ неетични претенции “ от политически акции. „ Политическите партии се свързват косвено посредством интернационалните номера в WhatsApp, регистратори в Instagram или се свързват в Telegram “, сподели Джадун в телефонно изявление за Al Jazeera.

На изборите през ноември неговата компания отхвърли повече от 50 такива претенции, сподели той, където евентуални клиенти желаеха видеоклипове и аудио, изменени за ориентиране към политически съперници, в това число с порнография. Като започващ, Jadoun сподели, че неговата компания е изключително деликатна, с цел да избегне всевъзможни правни проблеми. „ И това е доста неетично потребление на AI “, добави той. „ Но познавам доста хора, които го вършат на доста ниски цени и са елементарно налични в този момент. “

По време на предизборните акции за щатските законодателни органи на Мадхя Прадеш в Централна Индия и Раджастан на запад предишния ноември, полицията записва голям брой случаи за дълбоки подправени видеоклипове, ориентирани към високопоставени политици, в това число Моди, Шиврадж Сингх Чаухан, Кайлаш Виджайваргия (всички BJP) и Камал Нат (Конгрес). Производството на надълбоко подправено наличие постоянно се разпорежда на частни консултантски компании, които разчитат на мрежите на обществените медии за разпространяване, ръководени от WhatsApp.

Политически съветник, поискал анонимност, сподели на Ал Джазира, че редица елементарни жители без обществен профил са регистрирани в WhatsApp и употребявани за акциите, с цел да затрудни някой непосредствено да ги наблюдава до партии, претенденти, консултанти и компании за изкуствен интелект.

Този съветник организира шест акции в парламентарните избори предходната година както за BJP, по този начин и за Конгреса. „ В Раджастан използвахме телефонни номера на строителни служащи, с цел да поддържаме нашата мрежа в WhatsApp “, споделиха те, „ където се разпространяваха най-вече дълбоки подправени известия. “

Междувременно, манипулираните с изкуствен интелект аудиозаписи са изключително скъпи принадлежности в по-малките изборни региони,    „ ориентиране към претенденти с подправени записи на диалози за образуване на „ черни пари “ за избори или заплашване на някого за пазаруване на гласове “, сподели консултантът, чийто личен претендент беше ориентиран с един подобен запис. Записите нормално са маскирани с гласовете на претендентите, с цел да бъдат показани като доказателство за корупция.

„ Манипулирането на гласоподаватели от AI не се смята за грях от нито една партия “, прибавиха те. „ Това е единствено част от тактиката на акцията. “

Индия има 760 милиона интернет консуматори – повече от 50 % от популацията – след единствено Китай.

Сред всички претенции, едно от изборен регион в Южен Раджастан се открои към Jadoun. Преди щатските избори през ноември обаждащият се изиска Jadoun да промени проблематично, само че достоверно видео на техния претендент – чиято партия не разкри – с цел да направи реален deepfake. Целта: да се твърди, че оригиналът е deepfake, а deepfake оригиналът.

„ Опозицията имаше притеснителен видеоклип на своя претендент и желаеха да го разпространят по-бързо в обществените медии, с цел да настояват, че е бездънен фалш “, сподели той, избухвайки в неуместен смях. „ Политическите акции стават все по-странни. “

Заплахи за честността на изборите

Понастоящем индийските закони не дефинират ясно „ deepfakes “, сподели Анушка Джайн, откривател на политиката в основаната в Гоа Digital Futures Lab. Полицията употребява закони против клюка, подправени вести или нарушение на скромността на човек, съчетани със Закона за осведомителните технологии, с цел да се опита да се оправи с обособени случаи. Но постоянно те си играят на къртица.

„ Полицията преследва резултата от deepfake, а не тъй като самият той е deepfake “, сподели тя.

Анализатори споделят, че Избирателната комисия на Индия (ECI), самостоятелен орган, който организира анкети, би трябвало да се оправи с изменящия се темперамент на политическите акции.

В дните преди гласуването в щатските избори в Телангана предходната година водачите на ръководещата партия Бхарат Ращра Самити неведнъж предизвестиха своите почитатели в обществените медии да бъдат нащрек против дълбоки фалшификации, употребявани от Конгресната партия. Те също по този начин апелираха ECI против клипа deepfake, който Конгресът показа сутринта на гласуването.

Но видеото остава онлайн и партията по този начин и не получи уведомление от ECI, споделиха пред Al Jazeera двама водачи на Конгреса, осведомени с казуса.

Ал Джазира потърси мнения от ECI, само че към момента не е получила отговор.

„ Дори в случай че един човек бъде измамен да повярва в нещо и това промени мнението му, това опорочава чистотата на изборния развой “, сподели SY Quraishi, някогашен основен изборен комисар на Индия. „ Deepfakes направиха казуса с разпространението на клюки по време на изборите хиляди пъти по-сериозен. “

Кураиши сподели, че дълбоките фейкове би трябвало да бъдат модерирани в действително време, с цел да се сведат до най-малко вредите, които могат да причинят на индийската народна власт.

„ ECI би трябвало да предприеме дейности, преди да бъдат нанесени вредите “, сподели той. „ Те би трябвало да бъдат доста по-бързи. “

„ Истината е отвън обсега “

Индийското държавно управление оказва напън върху огромните софтуерни компании, в това число Гугъл и Meta, интензивно да поставят старания за модериране на дълбоки фалшификации на своите платформи. Министърът на осведомителните технологии Раджеев Чандрасекар се срещна с представители на тези компании като част от разискването на заканите, подбудени от deepfakes.

Като желае от софтуерния бранш да поеме водеща роля, държавното управление заобикаля всякаква рецензия, че се пробва да цензурира селективно селективни дълбоки имитации или че се пробва да разбие нововъзникващите AI технологии в по-широк проект.

Но прехвърляйки отговорността на частни компании, държавното управление повдига въпроси по отношение на искреността на желанието си да контролира манипулативното наличие, сподели Пратик Уагре, изпълнителен шеф на индийската Фондация за независимост на интернет, водеща организация за софтуерна политика в Ню Делхи - контейнер. „ Това е съвсем пожелателно мислене “, сподели той.

Казвайки, че софтуерните компании не са съумели да се оправят със съществуващите проблеми с модерирането на наличието, Вагре сподели, че „ възходът на AI в този момент “ е усложнил провокациите. И сегашният метод към модерирането на наличие пренебрегва това, което в действителност е в основата на казуса, сподели той.

„ Вие не решавате казуса “, сподели той. „ Дизайнът [на алгоритмите] е просто неправилен. “

На 16 февруари огромни софтуерни компании подписаха съглашение на Мюнхенската конференция по сигурността за непринудено приемане на „ рационални защитни ограничения “, с цел да предотвратят потреблението на принадлежности за изкуствен интелект за нарушение на демократичните избори по света. Но неразбираемо дефинираният пакт остави доста бранители и критици разочаровани.

YouTube разгласи, че ще даде опция на хората да изискат унищожаване на генерирано от изкуствен интелект или променено наличие, което симулира разпознаваемо лице, в това число лицето или гласа му, посредством своя развой за поръчка за дискретност.

„ Не съм доста оптимист за опциите на платформата да открива deepfake “, сподели Рави Айер, ръководещ шеф на Neely Center for Ethical Leadership and Decision Making към Marshall School of Business на Университета на Южна Калифорния. „ С ниската цифрова просветеност и възходящото ползване на видеоклипове, това съставлява сериозен риск за честността на изборите в Индия. “

Идентифицирането на всяка медия, манипулирана от AI, не е рационална задача, Айер сподели, че фирмите би трябвало да преработят логаритмите, които деприоризират поляризиращото наличие. „ Компаниите са тези, които разполагат с парите и ресурсите, те би трябвало да подхващат рационални стъпки, с цел да се оправят с повишаването на дълбоките имитации “, сподели той.

Фондацията за независимост в интернет разгласява отворено писмо, призоваващо претендентите и партиите за изборите непринудено да се въздържат от потреблението на дълбоки подправени технологии преди националните

Източник: aljazeera.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!